68 research outputs found

    Reconstruction d'images en tomographie d'émission par positrons avec temps de vol ultra-précis

    Get PDF
    La tomographie d'émission par positrons (TEP) est une modalité de l'imagerie médicale qui permet de caractériser des processus biologiques in vivo dans un sujet. Depuis l'introduction de cette modalité, la formation de l'image TEP a toujours reposé sur des méthodes inverses. Ces méthodes sont nécessaires puisque la résolution temporelle des détecteurs TEP est insuffisante pour permettre la formation directe de l'image d'intérêt. Or, même sans avoir une telle résolution temporelle, l'introduction de cette information, dénommée temps de vol (TDV), dans le processus de reconstruction engendre une multitude de bénéfices qui améliorent la qualité des images reconstruites. L'importance de ces bénéfices étant corrélée à la résolution TDV de la caméra TEP, il n'est pas étonnant que le développement de détecteurs TEP rapides soit une branche active de recherche. Dans la dernière décennie, plusieurs percées en instrumentation ont permis d'améliorer significativement la résolution TDV des caméras TEP, au plus grand bénéfice de la qualité des images TEP. Ces avancées sont prometteuses au point que l'atteinte d'une résolution ultra-précise en TDV, suffisante pour permettre la formation directe de l'image TEP, n'est qu'une question de temps pour une partie de la communauté scientifique. Cependant, l'écart à couvrir pour atteindre une telle résolution reste important et beaucoup d'efforts sont investis pour l'atteindre. Cette thèse étudie donc le problème de reconstruction des images TEP dans le contexte de résolution ultra-précise en TDV. Les objectifs de cette étude sont d'établir une meilleure compréhension des bénéfices possibles dans la perspective qu'une telle résolution pourra être atteinte et de déterminer si un nouveau modèle de reconstruction de l'image TEP pourrait être développé pour mieux exploiter la résolution ultra-précise en TDV. Une telle résolution TDV n'est pas pour l'instant disponible, alors cette étude se base sur des données simulées pour atteindre ces objectifs. Cette étude du cas extrême où la résolution TDV serait ultra-précise a permis de mettre en lumière les conditions nécessaires pour l'atteindre, mais aussi les bénéfices qu'elle conférerait à l'imagerie TEP. Dans un premier temps, l'importance de la correction de la profondeur d'interaction dans les détecteurs TEP a été mise en évidence par l'introduction d'un nouveau modèle pour caractériser le processus statistique du TDV. Ensuite, l'effet bénéfique du TDV sur la limite de la résolution spatiale qu'une caméra TEP peut atteindre a été démontré. Pour finir, un nouveau modèle de reconstruction d'images TEP est présenté comme une solution potentielle pour s'attaquer au problème de reconstruction d'images TEP lorsqu'il y a peu de données. Ce modèle repose sur la résolution ultra-précise en TDV pour exploiter une paramétrisation avec plus de degrés de liberté que l'approche standard. Ainsi, les résultats présentés dans cette thèse indiquent que le changement de paradigme induit par l'accès à une résolution ultra-précise en TDV dans le processus de reconstruction ouvre la voie à des innovations qui pourraient bonifier significativement l'imagerie TEP

    Reconstruction multidimensionnelle de type mouvement cyclique en tomographie d'Ă©mission par positions: revue et nouvelle approche

    Get PDF
    La tomographie d’émission par positrons (TEP) est un outil qui permet, grâce à l’injection d’une dose de radiotraceur, de diagnostiquer et caractériser différents problèmes de santé, dont le cancer et les pathologies cardiaques. Pour exploiter cette modalité de l’imagerie médicale à son plein potentiel, plusieurs éléments, dont chacun comporte son lot de défis, doivent être réunis. La conversion des données fournies par la caméra TEP en une image interprétable par un spécialiste, dénommé la reconstruction TEP, est un sous-problème particulièrement intéressant. Ce problème a déjà été abordé à maintes reprises dans la littérature, et ce, dans plusieurs contextes différents. Parmi ceux-ci, la reconstruction d’une acquisition où le sujet, ou une partie de ce dernier, est en mouvement engendre, à cause des caractéristiques inhérentes de cette modalité, des données contaminées par ce même mouvement. Cette contamination peut, si elle n’est pas prise en compte, modifier l’image reconstruite et en fausser l’interprétation. Plusieurs méthodes ont été développées pour atténuer, voire éradiquer, la contamination de l’image reconstruite. Parmi celles-ci, il existe une sous- famille de méthodes spécialement conçues pour s’attaquer aux biais induits par des mouvements cycliques. En effet, les mouvements de type cyclique, i.e. le mouvement cardiaque ou respiratoire, possèdent une propriété particulière qui peut, moyennant certaines hypothèses, être exploitée dans la phase de reconstruction. Différentes approches ont été présentées dans la littérature pour exploiter cette particularité et chacune d’entre-elles offre son lot d’avantages et d’inconvénients. Afin d’obtenir des images de qualité semblable à celle obtenue à partir d’un sujet immobile, toutes ces approches nécessitent d’augmenter la dose de radiotraceur injectée dans le sujet. Cette augmentation sera dénommé le facteur de compensation de dose. L’objectif de cette maîtrise est d’étudier ces approches afin de diminuer le facteur de compensation de dose. Pour y parvenir, un compte-rendu sur l’état de l’art de cette problématique sera présenté. Ce compte-rendu est divisé en trois volets : une étude des propriétés théoriques de chacune de ces approches, une comparaison numérique de leurs performances et une revue des lacunes qui persistent dans ce domaine. L’analyse des propriétés théoriques a débouché sur la création d’une nouvelle variante d’une des approches. L’introduction de cette nouvelle méthode, dont la résolution est explicitée, permet d’établir des parallèles théoriques avec l’approche originelle. La comparaison, en terme de vitesse de convergence, de ces variantes semble indiquer que le nouveau modèle offre un gain en vitesse de reconstruction, et ce, sans perte de qualité. La caractérisation des modèles représentant chaque approche, résultant de leur analyse théorique, a permis de motiver l’utilisation de solveurs généraux. Une méthodologie a été développée pour effectuer la comparaison numérique des per-formances. Les résultats des tests de performance permettent de déceler une lacune commune à certaines approches. Une hypothèse sur la source de cet inconvénient de même que quelques arguments la soutenant sont formulés

    Effets de la Politique Fiscale sur la Croissance Economique: Une Analyse sur Donnees de Panel Appliquee a Six Pays de L’Uemoa

    Get PDF
    Dans cet article, nous Ă©tudions sur la base d’un modèle de croissance endogène, l’impact du niveau d’imposition du bĂ©nĂ©fice des sociĂ©tĂ©s sur la croissance. L’outil Ă©conomĂ©trique privilĂ©giĂ© est le modèle de transition lisse de panel (PSTR) fondĂ© sur la composition de la structure fiscale. L’étude porte sur la pĂ©riode 1970-2016 et concerne six (6) pays de l’Union Economique et MonĂ©taire Ouest Africaine (UEMOA). Les rĂ©sultats obtenus rĂ©vèlent que l’imposition des bĂ©nĂ©fices des sociĂ©tĂ©s influence positivement l’économie lorsque le taux d’imposition retardĂ© d’une pĂ©riode est infĂ©rieur Ă  12,7%. Dans ce cas, la politique fiscale est efficace. Par contre, lorsque le niveau d’imposition des bĂ©nĂ©fices des sociĂ©tĂ©s est supĂ©rieur au seuil critique, l’impact de la politique d’imposition sur la croissance devient nĂ©gatif. Pour ce faire, nous recommandons un système fiscal moins distorsif, disproportionnĂ©, ciblĂ© et dĂ©mocratique. In this paper, we study on the basis of an endogenous growth model, the impact of tax rates on profits on growth for six (6) countries of UEMOA, for the period 1970-2016. The preferred econometric tool is the Smooth Panel Transition Model (PSTR) based on the composition of the tax structure. The results show that tax of profits positively influences the economywhen the tax rate delayed by one period is less than 12.7%. In this case, the tax policy is effective. On the other hand, for tax of profits levels above the critical threshold, the impact of the corporate income tax policy on growth becomes negative. To achieve this, we would recommend a tax system that is less distortive, disproportionate, targeted and democratic. &nbsp

    Analyse et comparaison de procédures d'optimisation en tomodensitométrie

    Get PDF
    La est une modalité d'imagerie médicale utilisée pour représenter la structure interne d'un être vivant. La reconstruction de cette image doit être rapide et stable. En outre, le résultat doit représenter le plus fidèlement que possible la réalité. Ce document propose de comparer les performances de quelques algorithmes itératifs en termes de qualité d'image reconstruite et de durée de calcul. Parmi les algorithmes testés, certains ont été développés spécialement pour le problème de tomodensitométrie alors que d'autres sont des solveurs généraux. De plus, chacun des algorithmes sera testé avec une variante incluant un terme de régularisation. Ce document propose de tester quelques variantes de gradient conjugué non-linéaire afin d'observer leur performance en tomodensitométrie

    Repair of UV-induced DNA lesions in natural Saccharomyces cerevisiae telomeres is moderated by Sir2 and Sir3, and inhibited by yKu–Sir4 interaction

    Get PDF
    Ultraviolet light (UV) causes DNA damage that is removed by nucleotide excision repair (NER). UVinduced DNA lesions must be recognized and repaired in nucleosomal DNA, higher order structures of chromatin and within different nuclear subcompartments. Telomeric DNA is made of short tandem repeats located at the ends of chromosomes and their maintenance is critical to prevent genome instability. In Saccharomyces cerevisiae the chromatin structure of natural telomeres is distinctive and contingent to telomeric DNA sequences. Namely, nucleosomes and Sir proteins form the heterochromatin like structure of X-type telomeres, whereas a more open conformation is present at Y’-type telomeres. It is proposed that there are no nucleosomes on the most distal telomeric repeat DNA, which is bound by a complex of proteins and folded into higher order structure. How these structures affect NER is poorly understood. Our data indicate that the X-type, but not the Y’-type, sub-telomeric chromatin modulates NER, a consequence of Sir protein-dependent nucleosome stability. The telomere terminal complex also prevents NER, however, this effect is largely dependent on the yKu–Sir4 interaction, but Sir2 and Sir3 independent

    A rewriting of the relation between the acolinearity of annihilation photons and their energy in the context of positron emission tomography

    Full text link
    Acolinearity of the annihilation photons observed in Positron Emission Tomography (PET) is described as following a Gaussian distribution. However, it is never explicitly said if it refers to the amplitude of the acolinearity angle or its 2D distribution relative to the case without acolinearity (herein defined as the acolinearity deviation). Since the former is obtained by integrating the latter, a wrong interpretation would lead to very different results. The paper of Shibuya et al. (2007), differs from the previous studies since it is based on the precise measurement of the energy of the annihilation photons. They also show that acolinearity follows a Gaussian distribution in the context of PET. However, their notation, which relies on being on the plane where the two annihilation photons travel, could mean that their observation refers to the amplitude of the acolinearity angle. If that understanding is correct, it would mean that acolinearity deviation follows a 2D Gaussian distribution divided by the norm of its argument. Thus, we revisited the proof presented in Shibuya et al. (2007) by using an explicit description of the acolinearity in the 3D unit sphere

    Fast Gradient Descent for Surface Capture Via Differentiable Rendering

    Get PDF
    International audienceDifferential rendering has recently emerged as a powerful tool for image-based rendering or geometric reconstruction from multiple views, with very high quality. Up to now, such methods have been benchmarked on generic object databases and promisingly applied to some real data, but have yet to be applied to specific applications that may benefit. In this paper, we investigate how a differential rendering system can be crafted for raw multi-camera performance capture. We address several key issues in the way of practical usability and reproducibility, such as processing speed, explainability of the model, and general output model quality. This leads us to several contributions to the differential rendering framework. In particular we show that a unified view of differential rendering and classic optimization is possible, leading to a formulation and implementation where complete non-stochastic gradient steps can be analytically computed and the full perframe data stored in video memory, yielding a straightforward and efficient implementation. We also use a sparse storage and coarse-to-fine scheme to achieve extremely high resolution with contained memory and computation time. We show experimentally that results rivaling in quality with state of the art multi-view human surface capture methods are achievable in a fraction of the time, typically around a minute per frame

    Cardiac Interventional Guidance using Multimodal Data Processing and Visualisation: medInria as an Interoperability Platform

    Get PDF
    Midas JournalmedInria is a free medical imaging software developed at Inria, which aims at providing clinicians with state-of-the-art algorithms dedicated to medical image processing and visualization. Efforts have been made to simplify the user interface, while keeping high-level algorithms. In this particular article, we will concentrate on its use in preoperative preparation for cardiac interventions, and how we handle the difficulties arising from the lack of standard format for data types such as meshes or fibers, the absence of a common programming interface for data processing algorithms, notably registration, and the issues of visualisation where display conventions would be beneficial
    • …
    corecore